摘要:论文提出了一种隐意图对话模型(Latent Intention Dialogue Model, LIDM),通过离散的隐变量来学习对话意图,这些隐变量可以看作引导对话生成的动作决策,提高基于手工构建的状态-动作集传统强化学习模型所生成对话的多样性。
Modeling Fine-Grained Entity Types with Box Embeddings Modeling Fine-Grained Entity Types with Box Embeddings Google Research,ACL2021,https://kami.app
本文提出了建模对话动态信息流的方法DialoFlow,引入dynamic flow 动态流机制通过处理每个话语带来的语义影响来模拟整个对话历史中的动态信息流。 Introduction现有的建模对话历史的方法主要分为两种。一种是直接拼接对话历史,这种方法在某种程度上忽略了对话历史中跨句子的对话动态。
基于 Prompt(模版)增强的微调范式 Introduction基于 Prompt(模版)增强的微调范式在少样本学习等场景下可以有效提升下游任务上的效果,Prompt最初诞生于GPT系列的自回归预训练语言模型,GPT 模型在零样本场景下的运行方式是:基于一定的任务描述(task descripti
自监督学习效率比全监督低很多(e.g.,100 epochs v.s. 1000 epochs),论文把这一现象的原因归结为欠聚类(under clustering)或过聚类(over clustering),并提出了一个median triplet loss来提高训练的效率,同时提升性能。 Int
基于对比学习的聚类以及新意图发现 Contrastive Clustering AAAI 2021, paper, code, official blog 现有的大部分深度聚类(Deep Clustering)算法需要迭代进行表示学习和聚类这两个过程,利用聚类结果来优化表示,再对更优的表示进行聚类,
I am looking for talented and self-motivated research interns. Please contact me (kqin@bupt.cn) if you are interested in LLMs. News 2024.2: We have tw